除了可解释性(自去年以来,组织在这方面有所改进)之外,大多数其他维度要么保持不变,要么恶化。这令人担忧,因为从广义上讲,人工智能系统对结果的可解释性似乎有所改善,但在“展示”其工作方式(透明度)或“证明”其工作方式(可审计性)方面却没有相应的改善。如果组织通常可以在不展示或证明人工智能结果的情况下更好地解释人工智能结果,那么他们可能对可解释性过于乐观,或者更依赖解释而不是具体证据。独立非营利组织 Partnership on AI 发布的研究还发现,实践中的可解释性未能提高外部利益相关者(例如最终用户和客户)的透明度和问责制,因为它目前服务于内部利益相关者(例如工程师和开发人员)的利益。29